Mobile
Log In Sign Up
Home > english-french > "activation function" in French

French translation for "activation function"

fonction d'activation
Example Sentences:
1.Monotonic – When the activation function is monotonic, the error surface associated with a single-layer model is guaranteed to be convex.
Monotone: Lorsque la fonction est monotone, la surface d'erreur associée avec un modèle monocouche est certifié convexe.
2.Support vector machines (SVMs) can effectively utilize a class of activation functions that includes both sigmoids and RBFs.
Les machines à support vectoriel (SVMs) peuvent utiliser une classe de fonctions d'activation qui inclut à la fois les sigmoïdes et les RBF.
3.When the activation function does not approximate identity near the origin, special care must be used when initializing the weights.
Si la fonction ne converge pas vers l'identité en 0, alors un soin spécial doit être apporté lors de l'initialisation des poids.
4.These machines can also accept arbitrary-order polynomial activation functions where ϕ ( v i ) = ( 1 + ∑ j v i , j x j ) p {\displaystyle \,\phi (v_{i})=\left(1+\sum _{j}v_{i,j}x_{j}\right)^{p}} .
Ces machines peuvent aussi accepter des fonctions d'activation polynomiale d'un ordre arbitraire : ϕ ( v i ) = ( 1 + ∑ j v i , j x j ) p
5.The activation function for the hidden layer of these machines is referred to as the inner product kernel, K ( v i , x ) = ϕ ( v i ) {\displaystyle K(v_{i},x)=\phi (v_{i})} .
La fonction d'activation pour les couches cachées de ces machines est souvent appelée "noyau du produit intérieur" : K ( v i , x ) = ϕ ( v i )
6.In the mathematical theory of artificial neural networks, the universal approximation theorem states that a feed-forward network with a single hidden layer containing a finite number of neurons can approximate continuous functions on compact subsets of Rn, under mild assumptions on the activation function.
Dans la théorie mathématique des réseaux de neurones artificiels, le théorème d'approximation universelle indique qu'un réseau à propagation avant d'une seule couche cachée contenant un nombre fini de neurones (c'est-à-dire, un perceptron multicouche) peut approximer des fonctions continues sur des sous-ensembles compacts de Rn.
7.As a special case, a simplest ELM training algorithm learns a model of the form (for single hidden layer sigmoid neural networks): Y ^ = W 2 σ ( W 1 x ) {\displaystyle \mathbf {\hat {Y}} =\mathbf {W} _{2}\sigma (\mathbf {W} _{1}x)} where W1 is the matrix of input-to-hidden-layer weights, σ {\displaystyle \sigma } is an activation function, and W2 is the matrix of hidden-to-output-layer weights.
Le plus simple algorithme d'apprentissage ELM a un modèle de la forme Y ^ = W 2 σ ( W 1 x )
8.The support vectors are represented as the centers in RBFs with the kernel equal to the activation function, but they take a unique form in the perceptron as ϕ ( v i ) = tanh ⁡ ( β 1 + β 0 ∑ j v i , j x j ) {\displaystyle \,\phi (v_{i})=\tanh \left(\beta _{1}+\beta _{0}\sum _{j}v_{i,j}x_{j}\right)} , where β 0 {\displaystyle \beta _{0}} and β 1 {\displaystyle \beta _{1}} must satisfy certain conditions for convergence.
Les vecteurs supports sont représentés comme les centres de RBF dont le noyau serait égal aux fonctions d'activation, mais ils prennent une unique forme de perceptron : ϕ ( v i ) = tanh ⁡ ( β 1 + β 0 ∑ j v i , j x j )
Similar Words:
"activating" French translation, "activating system" French translation, "activating transcription factor" French translation, "activation" French translation, "activation energy" French translation, "activation product" French translation, "activator" French translation, "activator (genetics)" French translation, "active" French translation